ابداع سیستمی که بیان چهرهی رباتها را انسانیتر میکند
به گزارش خبرگزاری آنا به نقل از IE، به منظور خلق بلادرنگ حرکات پیچیده صورت، این امواج به نواحی خاصی از صورت منتقل و روی آن منطبق میشود.
به گفته پژوهشگران دانشگاه اوزاکا، این رویکرد از انتقال حرکت قابل مشاهده اجتناب کرده و نیاز به تهیه دادههای اقدام گسترده و متنوع را برطرف میکند.
همچنین، تغییرات در متغیرهای داخلی، مانند خلق و خو را میتوان به سرعت به عنوان تغییرات در حرکات صورت با ترکیب «مدولاسیون موجی شکل» نشان داد که شکل موجهای فردی را وابسته به حالت درونی ربات تغییر میدهد.
«کویچی اوسوکا» «Koichi Osuka» پژوهشگر و مجری این طرح گفت: «پیشبرد این تحقیق در ساخت حالت پویای چهره، رباتها را قادر میسازد با ایجاد حرکات پیچیدهی صورت، حالتهای زنده تری از خود بروز دهند و تغییرات خلقی در واکنش به شرایط اطرافشان، از جمله تعامل با انسان را منتقل کنند.»
وی افزود: «این میتواند ارتباطات عاطفی بین انسان و رباتها را بسیار تقویت کند».
حالات پویای چهره در تقویت ارتباطات در رباتهای اجتماعی، به ویژه در انتقال حالتهای عاطفی مانند هیجان یا خواب آلودگی، نقش حیاتی ایفا میکند.
حرکات سریع و قابل توجه سر و صورت ممکن است بیانگر هیجان باشد و حرکات آهستهتر و نوسانی حاکی از خواب آلودگی. از این رو کنترل موثر سرعت، دامنه، نوسان و مدت زمان برای ایجاد تعاملات طبیعی رباتها ضروری است.
به طور سنتی، رباتهایی با ویژگیهای بسیار متحرک صورت، مانند اندروید، برای نمایش حالات چهره در مدت زمان طولانی به یک «روش تکه کاری» متکی هستند. این رویکرد شامل ایجاد چندین سناریو اقدام از پیش تنظیم شده و جابجایی بین آنها در صورت لزوم برای جلوگیری از حرکات غیر طبیعی صورت است.
به گفته دانشمندان ژاپنی، نمونههای اولیه وضعیت ایستا یا توالیهای حرکتی از پیش ضبط شده، اغلب انتقالهای غیرطبیعی یا ناگهانی ایجاد کرده و سازگاری را محدود میکنند؛ بنابراین آنها برای غلبه بر این چالش ها، یک سیستم مبتنی بر ساختار عمیق را پیشنهاد میکنند که به شکلی پویا حرکات صورت مرتبط با حالت عاطفی ربات را ایجاد میکند. این سیستم شامل ساخت توالیهای دستوری با استفاده از توابع زمانی غیرخطی ساده، مانند توابع گاوسی، و شکلهای موجی از بین روندهای است که الگوهای حرکتی شبه انسان را تقلید میکند.
سیستم پیشنهادی با استفاده از دو ماژول اصلی مدیریت زمانی و وضعی، حالتهای پویای چهره را برای رباتها ایجاد میکند.
ماژول مدیریت زمانی از توابع موجی از بین رونده برای ایجاد الگوهای مبتنی بر زمان بر اساس وضعیت داخلی ربات، مانند هیجان یا خواب آلودگی، استفاده میکند که با مقداری بین منفی یک (۱-) (خواب آلود) و یک (۱) (هیجان زده) نشان داده میشود.
ماژول وضعی این الگوها را با هماهنگ کردن چندین محرک، مانند آنهایی که باز شدن فک یا حرکت پلک را کنترل میکنند، به حرکات خاص صورت تبدیل میکند.
هر ماژول دارای گرههایی به نام «مولد» و «هماهنگ کننده» است که در همکاری با هم، اقدامات هماهنگی مانند خمیازه کشیدن یا لبخند زدن را ایجاد میکنند. به عنوان مثال، در طول خمیازه، سیستم اطمینان حاصل میکند که فک ربات باز میشود، لبها بیرون زده و پلکها به طور هماهنگ بسته میشوند.
به گفته محققان، با طراحی دقیق وزن شبکه و هماهنگی سیگنال ها، این سیستم حرکات شبه انسان را به طور طبیعی تکرار میکند. این رویکرد به رباتها اجازه میدهد تا احساسات و حالات خود را به آرامی بیان کرده و توانایی خود را در تعامل موثر با انسانها افزایش دهند.
اوسوکا اظهار داشت: «به جای ایجاد حرکات سطحی، توسعه بیشتر سیستمی که در آن احساسات درونی در جزئیات رفتاری یک اندروید منعکس میشود، میتواند منجر به ایجاد رباتهای اندرویدی شود که قلب و عاطفه داشته باشند.»
این محققان بر این باورند این فناوری که به صورت تطبیقی احساسات را تنظیم و بیان میکند، قرار است رباتهای ارتباطی را تا حد زیادی تقویت کرده، تعاملات را طبیعی و شبه انسانیتر و تبادل اطلاعات با انسانها را امکان پذیر کند.
نتایج این تحقیقات در نشریه Robotics and Mechatronics منتشر شده است.
انتهای پیام/